首页> 外文OA文献 >Scalable Bayesian Learning of Recurrent Neural Networks for Language Modeling
【2h】

Scalable Bayesian Learning of Recurrent Neural Networks for Language Modeling

机译:语言递归神经网络的可扩展贝叶斯学习   造型

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。
获取外文期刊封面目录资料

摘要

Recurrent neural networks (RNNs) have shown promising performance forlanguage modeling. However, traditional training of RNNs using back-propagationthrough time often suffers from overfitting. One reason for this is thatstochastic optimization (used for large training sets) does not provide goodestimates of model uncertainty. This paper leverages recent advances instochastic gradient Markov Chain Monte Carlo (also appropriate for largetraining sets) to learn weight uncertainty in RNNs. It yields a principledBayesian learning algorithm, adding gradient noise during training (enhancingexploration of the model-parameter space) and model averaging when testing.Extensive experiments on various RNN models and across a broad range ofapplications demonstrate the superiority of the proposed approach overstochastic optimization.
机译:递归神经网络(RNN)在语言建模方面已显示出令人鼓舞的性能。然而,使用反向传播的传统RNN训练通常会遭受过度拟合的困扰。原因之一是随机优化(用于大型训练集)无法提供模型不确定性的良好估计。本文利用最近的随机梯度马尔可夫链蒙特卡罗方法(也适用于大型训练集)来学习RNN中的权重不确定性。它产生了一种有原则的贝叶斯学习算法,在训练过程中增加了梯度噪声(增强了对模型参数空间的探索),并在测试时进行了模型平均。在各种RNN模型和广泛应用中的大量实验证明了该方法过随机优化的优越性。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号